21 GenAI UX Patterns 21種GenAI UX設計模式

生成式人工智慧(GenAI)為人機互動帶來新方式,核心是"基於意圖達成結果"。由於其機率性輸出涉及記憶、錯誤、幻覺和惡意使用等問題,設計可用、安全、可信的AI產品至關重要。

IBM指出,構建AI產品不僅是大語言模型(LLM)問題,而是多層次系統:包括記憶、編排、工具擴充套件、使用者體驗設計和代理式流程等要素。

1. 是否使用GenAI(GenAI or no GenAI)

在決定是否使用AI時,要考慮它能否真正改善使用者體驗,以及可能帶來的複雜問題。

適合使用GenAI的場景:

不建議使用GenAI的場景:

如何使用:

  1. 找出使用者使用產品時的困難點。
  1. 評估技術是否可行,以及投入是否值得。
  1. 確認使用者期望與AI系統是否匹配,參考後面的"增強vs自動化"和"心理模型"部分。

2. 把使用者需求轉為資料需求(Convert User Needs to Data Needs)

AI專案應從使用者真實需求出發,然後確定AI需要什麼資料。使用者關心的是目標和感受,而不是資料結構。

如何使用

  1. 組建包含產品、設計和資料專家的團隊,共同定義使用者問題。
  1. 用多種方法瞭解使用者需求:
    • 調查和訪談
    • 行為觀察
    • 使用者評論和社交媒體反饋
  1. 使用工具如任務分析、使用者畫像和價值主張分析。
  1. 確定AI模型需要哪些資料,分析現有資料是否足夠。

3. 增強(Augment)與自動化(Automate)

決定AI是幫助使用者做得更好,還是完全代替使用者完成任務。

如何使用:

4. 自動化程度定義(Define Level of Automation)

根據使用者需求和問題,決定讓AI控制到什麼程度。

三種自動化等級:

如何使用:

  1. 評估任務風險:低風險任務(如提醒、篩選)適合自動化;高風險任務(如金融交易)需要人工監督。
  1. 在介面中明確自動化控制選項,參考第15條。

5. 漸進式GenAI使用(Progressive GenAI Adoption)

逐步引導使用者使用AI功能,幫助他們理解系統能做什麼,避免恐懼和誤解。

如何使用:

6. 利用使用者心理模型(Leverage Mental Models)

當產品設計符合使用者已有的思維習慣時,使用者更容易接受和使用。

示例:

如何使用:

7. 表達產品限制(Convey Product Limits)

清晰地說明AI模型的能力邊界、知識覆蓋範圍以及潛在的限制,有助於建立信任並防止誤用。

示例:

如何使用:

  1. 在產品中清楚表達模型限制:使用上下文提示、響應說明、工具提示等形式。
  1. 提供替代方案:當模型無法響應時,提供人工客服或其他渠道。
  1. 在營銷文案、使用者引導中明確能力邊界,防止使用者產生錯誤預期。

8. 展示思維鏈(Display Chain of Thought, CoT)

透過模擬人類逐步思考過程,讓使用者理解AI是如何得出答案的,增強透明度與信任。

示例:

如何使用:

  1. 展示處理狀態(如“正在檢索”“分析中”),降低使用者焦慮。
  1. 採用“逐步展開”設計:先顯示摘要,使用者可點選檢視詳細推理過程。
  1. 明確顯示AI使用的工具或資料來源。
  1. 表示模型信心或不確定性,提示使用者是否應進一步核實資訊。

9. 利用多樣輸出(Leverage Multiple Outputs)

利用GenAI的機率性特性,提供多個輸出供使用者選擇,有助於激發創意或最佳化決策。

示例:

如何使用:

  1. 說明多樣輸出的目的:幫助使用者探索不同方向或理解問題的多種可能。
  1. 支援使用者編輯、評分或混合多個輸出。如Midjourney 提供“Remix”選項引導使用者細化生成內容。

10. 提供資料來源(Provide Data Sources)

展示AI輸出背後的資料依據,有助於提升資訊可信度,尤其在高風險領域(如醫療、金融、法律)尤為關鍵。

示例

如何使用

  1. 在回答中加入引用或可展開的資料來源連結。
  1. 解釋模型訓練資料的覆蓋範圍與排除項。
  1. 針對多個資料來源的情況,區分不同可信等級的資料並作出視覺區分。

11. 表達模型信心(Convey Model Confidence)

透過顯示AI模型對輸出的置信度,幫助使用者判斷資訊的可靠性,做出更合適的決策。

示例:

如何使用:

  1. 判斷場景是否需要信心提示:
    • 高風險場景必須提示信心程度。
    • 低風險場景(如生成藝術、故事)可避免幹擾體驗。
  1. 選擇合適的表達形式:
    • 百分比、進度條或語言提示。
  1. 在低信心情況下提供後續建議,如“是否需要進一步確認?”或“檢視其他選項”。

12. 設計記憶與回憶功能(Design for Memory and Recall)

允許AI記住使用者的歷史資訊、偏好或任務進度,有助於提高個性化體驗,降低重複操作。

示例:

如何使用:

  1. 定義記憶場景與型別:
    • 短期記憶:僅在當前會話中有效。
    • 長期記憶:跨會話使用,如專案規劃、使用者偏好等。
  1. 在對話中自然呼叫記憶內容,例如:“你上次說希望語氣更輕鬆,要繼續這樣嗎?”
  1. 提供清晰的資料控制入口:使用者可以檢視、編輯或刪除記憶。ChatGPT 提供完整的記憶管理介面。

13. 提供上下文輸入引數(Provide Contextual Input Parameters)

透過自動填寫或建議使用者個性化設定,使互動更快捷精準,減少使用者認知負擔。

示例:

如何使用:

  1. 自動填充歷史輸入或偏好設定(參考記憶模式)。
  1. 實時提示智慧補全建議。
  1. 根據使用者行為或場景,動態提供互動控制元件(如滑動條、核取方塊等)。

14. 協作式/共同編輯設計(Design for Co-Pilot / Co-Editing / Partial Automation)

AI作為助手存在,使用者保持決策權。這在創意、寫作、設計、程式設計等主觀性強的任務中尤為重要。

示例

如何使用

  1. 將AI建議嵌入上下文中,使用者可隨時修改。
  1. 允許使用者設定創作意圖,如目標、語調、示例。
  1. 保留使用者最終控制權,使AI成為靈感加速器而非取代者。

15. 自動化使用者控制設計(Design User Controls for Automation)

讓使用者透過介面控制AI的自動化程度,確保使用者在AI行為不符合預期時能及時幹預,避免失控。

示例:

如何使用:

  1. 漸進式展示控制:從簡單功能開始,引導使用者逐步解鎖更復雜的自動化能力。
  1. 提供明確的UI控制元件:如開關按鈕、滑塊、選擇項,讓使用者自行選擇AI自動化的時機與範圍。
  1. 錯誤恢復機制:當AI結果不準確時,提供“撤銷”“手動編輯”“人工協助”等備選路徑。

16. 使用者輸入錯誤處理設計(Design for User Input Error States)

使用者輸入可能含糊不清或不完整,AI需要有策略應對,以維持互動流暢性。

示例:

如何使用:

  1. 自動糾錯:當模型識別拼寫錯誤且信心較高時,使用拼寫檢查或模糊匹配自動糾正常見輸入錯誤,並巧妙地顯示更正
  1. 提問澄清:當使用者輸入模糊、上下文不足時,引導使用者補充資訊,瞭解更多關於實體和意圖的資訊。而非直接推測答案。
  1. 提供快速修正方式:例如顯示“編輯”按鈕,便於使用者快速修改原始輸入。

17. AI系統錯誤處理設計(Design for AI System Error States)

AI系統出錯是不可避免的,需設計適當機制幫助使用者識別問題並恢復操作。

常見錯誤型別:

示例:

如何使用:

  1. 使用模糊語句降低信任風險:“這可能不完全準確”“我們正在改進答案質量”。
  1. 提供恢復路徑:比如“嘗試不同的問題”“聯絡客服”等。
  1. 收集反饋:讓使用者標記錯誤內容,有助於模型迭代最佳化(詳見第18條)。

18. 設計使用者反饋機制(Design to Capture User Feedback)

使用者行為和反饋是提升模型效能與產品體驗的重要依據。需要建立反饋閉環。

示例:

如何使用:

  1. 捕捉隱性反饋:如跳過、刪除、修改建議、使用頻率等行為訊號。
  1. 收集顯性反饋:透過評分、問卷、評價按鈕直接獲取意見。
  1. 告知使用者反饋用途:例如“你的反饋有助於提升回答質量”,增強參與意願與信任。

19. 模型評估機制設計(Design for Model Evaluation)

GenAI系統需在訓練階段和部署後持續評估,確保準確性、安全性和使用者契合度。

評估方法Beyond vibe checks: A PM’s complete guide to evals

示例

如何使用

20. AI安全機制設計(Design for AI Guardrails)

設定安全防線,防止生成有害、不實、帶偏見或不適當的內容,保障使用者特別是未成年人的使用安全。

其核心目標包括:

  1. 保護使用者尤其是兒童群體:防止暴力、辱罵性語言、虛假內容或有偏見的資訊影響使用者。
    • 例如防止模型生成種族歧視、性別歧視、政治煽動或性暗示內容。
    • AI系統應主動過濾或引導使用者遠離此類內容。
  1. 構建信任與促進使用:當使用者知道系統具備識別並阻止仇恨言論和假資訊的能力時,會更願意長期使用該產品。
    • 安全感和可控性是推動AI普及和長期留存的關鍵。
  1. 遵守倫理與法律合規:
    • 例如《歐盟AI法案》(EU AI Act)等新興法規要求企業設計“可控、安全、可解釋”的AI系統。
    • 違規可能導致嚴重法律責任和聲譽風險。

示例:

如何使用:

  1. 引導使用者輸入:對於潛在危險的提問,引導使用者改寫語句。
  1. 實時輸出審查與修改:在模型生成內容前後進行篩查或替換,並提示“此回答已根據安全政策調整”。
  1. 提示使用者注意風險:如“這不是醫療建議,僅供參考”。
  1. 鼓勵反饋:提供標記不當內容的入口,持續最佳化模型表現。
  1. 多重驗證高風險資訊:如結合權威資料庫驗證結果(參見第10條資料來源設計)。

21. 資料隱私與控制透明化(Communicate Data Privacy and Controls)

AI系統常依賴敏感或行為資料,需明確告知使用者資料如何被收集、使用、儲存與保護。

示例

如何使用

  1. 提供明確的資料說明:使用者使用某項AI功能時,說明訪問哪些資料以及用途。
  1. 支援資料許可權選擇:使用者可自由開啟或關閉資料採集、使用偏好。
  1. 提供資料管理功能:允許使用者檢視、下載或刪除其歷史資料。